IA en el ejercicio del derecho.
IA en el ejercicio del derecho.
Foto
Gemini

Share:

El uso de la IA en el Derecho: un debate ético que ya tiene sus primeras consecuencias

La Corte Suprema impuso una sanción a un abogado y un par de fallos han sido anulados.

“El problema no es la inteligencia artificial, es la falta de criterio”.

Esa es la frase que el abogado Andrés Díaz Arana utiliza para definir uno de los más recientes problemas que enfrenta el ejercicio del Derecho: el uso erróneo de la IA para elaborar escritos. 

El 5 de noviembre de 2025, la Corte Suprema de Justicia creó una de las jurisprudencias más importantes en este caso.

La alta corte anuló un fallo del Tribunal Superior de Sincelejo por el uso de inteligencia artificial para redactar su determinación, que contenía jurisprudencias erradas e inexistentes.

Nuestras noticias en tu mano: únete a nuestro canal de WhatsApp y mantente informado de todo lo que sucede.

"Al comparar los extractos señalados con las sentencias en cuestión, se concluye que los párrafos transcritos por el Tribunal son inexistentes, pues no forman parte de la jurisprudencia que utilizó para resolver el problema jurídico planteado. Esas citas no corresponden al sentido, alcance ni literalidad del contenido de las sentencias", explicó la Corte.

Sostuvo que cada cita y cada argumento deben ser confirmados para que las decisiones tengan solidez y mantengan la confianza en el sistema judicial. 

El 2 de diciembre de 2025, la Sala Penal del Tribunal Superior de Bogotá anuló la actuación del Juzgado 21 Penal del Circuito de Bogotá y compulsó copias ante la Comisión Seccional de Disciplina Judicial de Bogotá para que adelante las investigaciones contra el correspondiente juez. 

El Tribunal precisó que hay "notorios yerros" en la decisión de primera instancia y advirtió que la IA fue utilizada de una manera equivocada. 

"Dada la notoriedad de los yerros advertidos en la decisión, podría llegar a pensarse que, inclusive, sustituyó sus deberes de supervisión respecto del contenido en ella plasmado, siendo más grave aún, delegar la solución del caso a lo que la herramienta consideró era lo más adecuado", anotó la magistratura. 

Y es que, indicó la Corte Constitucional, la IA no está prohibida para la emisión de providencias judiciales, "siempre y cuando ello se haga de forma razonada y ponderadamente so pena de comprometer eventualmente su responsabilidad a raíz del uso indiscriminado e imprudente de estas tecnologías". 

Por último, la Sala de Casación Civil, Agraria y Rural de la Corte Suprema le impuso una sanción de 15 salarios mínimos a un abogado por temeridad procesal por el uso de la inteligencia artificial generativa para el ejercicio profesional. 

"Debe mantener control efectivo sobre su elaboración y asumir plena responsabilidad por su contenido. Ese principio de supervisión humana es innegociable", dijo la Corte. 

La función de la IA

Después de que se conocieran estos casos, el abogado Díaz Arana, fundador de la herramienta de asistencia judicial Ariel, expuso que la sanción no es por el uso de la inteligencia artificial y que esta herramienta no debe ser "satanizada".

"Se ha sancionado y se debe sancionar por no hacer el escrito. El no hacerlo está mal, así lo haga una inteligencia humana. Por ejemplo, está mal que un juez le pida al secretario que haga la sentencia y no la lea, no la revise, no la trabaje, sino que solo la firme", expuso.

El abogado Andrés Díaz Arana.

Para el penalista el problema es que un juez o un abogado no pueden reemplazar su criterio con el de otra persona o con el de la inteligencia artificial.

Argumentó que la IA es una "herramienta de trabajo, no es un abogado, no es colega y no es un empleado".

Asimismo, sostuvo que la finalidad es mejorar la productividad y poder hacer más de forma óptima, pero siempre con el deber de mantener estándares y controles.

"Es una mentira que va a reemplazar el trabajo, lo que está haciendo es ponerles más trabajo. Es decir, la gente se vuelve más productiva, saca más cosas, saca más conceptos, saca más investigaciones, porque es una herramienta de trabajo, no un reemplazo del trabajo del abogado", dijo.

IA en las altas cortes y su control

El uso de la inteligencia artificial para la redacción total de un escrito difícilmente puede ser controlado, principalmente porque no hay herramientas 100% confiables para detectarlo.

"No existe ni existirá una herramienta que lo detecte, ya que la inteligencia artificial imita la predicción que haría un ser humano del texto, en otras palabras, es técnicamente imposible determinar si un texto lo hizo la IA o un ser humano. Las herramientas que ofrecen eso venden humo", aclaró Andrés Díaz.

Sin embargo, hay un apartado en el que se está basando la justicia colombiana: los errores en las citaciones de jurisprudencia inexistentes o las incapacidades de quienes presentan los escritos para sustentarlos.

Fuentes cercanas a la Corte Constitucional le explicaron a Zona Cero que hay un término clave en este tópico: la alucinación. 

Palacio de Justicia.

Se utiliza cuando la inteligencia artificial generativa entrega información que no es real.

Como, por ejemplo, solicitar una sentencia que hable de neurociencia y que la IA entregue un pronunciamiento de la Corte Constitucional, pero que a la hora de buscarlo en la página de la corporación este documento no exista o trate una temática totalmente distinta. 

Por eso la postura es centrarse en la calidad del resultado y no comenzar una cacería de brujas sobre el uso de la IA para la elaboración de estos escritos.

Después hay casos interesantes como el de la magistrada del Tribunal de Santa Marta, María Victoria Quiñones, quien usa Copilot (la IA de Microsoft) para organizar las sentencias y ubicar información dentro de las mismas.

Quiñones tiene una cuenta en Youtube donde explica en detalle lo que hace con la inteligencia artificial. Por eso es considerado como disruptiva en la rama judicial. 

Aún en Colombia está problemática está emergiendo, como se demuestra con que el portal Damien Charlotin, que reúne casos de alucinaciones judiciales provocados por IA, solo presenta tres casos, mientras que en naciones como Australia hay 73, en Canadá 142 y en Estados Unidos 901. 

No obstante, se está trabajando para que el país no pierda la línea y la IA sea usada con transparencia por parte de abogados y jueces para garantizar un sistema de justicia humano.

Más sobre este tema: